图形学习模型是研究人员探索图形结构数据的关键工具。为了训练功能强大的图形学习模型,常规方法使用足够的训练数据来训练单个设备上的图形模型。但是,由于隐私问题,在实际情况下这样做是令人难以置信的。联合学习提供了一种可行的解决方案,可以通过引入各种隐私性机制(例如图形边缘的差异隐私)来解决此类限制。然而,联合图学习中的差异隐私可确保图表中维护的分类信息。它降低了图形学习模型的性能。在本文中,我们研究了如何在图形边缘实施差异隐私,并观察实验中的性能下降。我们还注意到,图形边缘的差异隐私引入了扰动图邻近性的噪音,这是图形对比度学习中的图形增强。受到的启发,我们建议利用图形对比学习的优势,以减轻差异隐私引起的性能下降。广泛的实验是通过几种代表性的图形模型和广泛使用的数据集进行的,表明对比度学习确实减轻了由差异隐私引起的模型的性能下降。
translated by 谷歌翻译
图形对比学习已成为无监督图表示学习的强大工具。图形对比学习成功的关键是获取高质量的正和负样本作为对比对,以学习输入图的基础结构语义。最近的作品通常从同一训练批次的阳性样品或外部无关图中采样负样品。但是,一个重要的限制在于此类策略,这是对假阴性样本进行采样的不可避免的问题。在本文中,我们提出了一种新颖的方法来利用\ textbf {c} ounterfactual机制来生成\ textbf {g} raph \ textbf {c} ontrastive学习的人造硬性样本与那些基于抽样的策略相比,观点。我们利用反事实机制来产生硬性样品,从而确保生成的样品与类似,但具有与正样品不同的标签。与一些传统的无监督图学习方法和一些SOTA图对比度学习方法相比,所提出的方法在几个数据集上获得了令人满意的结果。我们还进行了一些补充实验,为提出的方法提供了广泛的说明,包括具有不同硬性样品的CGC的性能以及对具有不同相似性测量的硬性阴性样品的评估。
translated by 谷歌翻译
药物建议是智能医疗系统的关键任务。先前的研究主要建议使用电子健康记录(EHRS)药物。但是,在EHR中可能会忽略或忽略医生与患者之间的相互作用的一些细节,这对于自动药物建议至关重要。因此,我们首次尝试通过医生和患者之间的对话推荐药物。在这项工作中,我们构建了Dialmed,这是第一个用于基于医学对话的药物建议任务的高质量数据集。它包含与3个部门的16种常见疾病和70种相应常见药物有关的11,996次医疗对话。此外,我们提出了对话结构和疾病知识意识网络(DDN),其中QA对话图机制旨在模拟对话结构,并使用知识图来引入外部疾病知识。广泛的实验结果表明,所提出的方法是推荐与医疗对话的药物的有前途的解决方案。该数据集和代码可在https://github.com/f-window/dialmed上找到。
translated by 谷歌翻译
混合是一种数据增强方法,通过混合一对输入数据来生成新数据点。虽然混合通常会改善预测性能,但它有时会降低性能。在本文中,我们首先通过理论上和经验分析混合算法来确定这种现象的主要原因。要解决此问题,我们提出了一种简单但有效的重定标记算法,专为混合而提出了Genlabel。特别是,GenLabel通过使用生成模型学习类条件数据分布,帮助混合算法正确标记混合样本。通过广泛的理论和实证分析,我们表明混合,当与Genlabel一起使用时,可以有效地解决上述现象,从而提高泛化性能和对抗鲁棒性。
translated by 谷歌翻译
由于知识图表提供的丰富信息,基于路径的可解释的推荐系统的最新进展引起了更大的关注。最现有的可解释的建议仅利用静态知识图表并忽略动态用户项演进,导致不太令人信服和不准确的解释。虽然有一些作品,但意识到建模用户的时间顺序行为可以提高推荐器系统的性能和解释性,其中大多数只关注用户在路径内的顺序交互或独立和单独的推荐机制。在本文中,我们提出了一种新颖的时间元路径指导可解释的推荐利用加强学习(TMER-RL),它利用了连续项目之间的加强项 - 项目路径建模,其注意机制在动态知识图上顺序模拟动态用户项演进用于解释的建议。与使用繁重的经常性神经网络模拟时间信息的现有作品相比,我们提出了简单但有效的神经网络,以捕获用户的历史项目功能和基于路径的上下文,以表征下一个购买的项目。与最近的强大基线相比,两个真实数据集的TMMER广泛评估显示了最先进的表现。
translated by 谷歌翻译
Recently, lots of algorithms have been proposed for learning a fair classifier from decentralized data. However, many theoretical and algorithmic questions remain open. First, is federated learning necessary, i.e., can we simply train locally fair classifiers and aggregate them? In this work, we first propose a new theoretical framework, with which we demonstrate that federated learning can strictly boost model fairness compared with such non-federated algorithms. We then theoretically and empirically show that the performance tradeoff of FedAvg-based fair learning algorithms is strictly worse than that of a fair classifier trained on centralized data. To bridge this gap, we propose FedFB, a private fair learning algorithm on decentralized data. The key idea is to modify the FedAvg protocol so that it can effectively mimic the centralized fair learning. Our experimental results show that FedFB significantly outperforms existing approaches, sometimes matching the performance of the centrally trained model.
translated by 谷歌翻译
作为现代深度学习的重要成分,关注机制,特别是自我关注,在全球相关发现中起着至关重要的作用。但是,在建模全局背景时,手工制作的注意力不可替代?我们的兴趣发现是自我关注并不优于20年前开发的矩阵分解(MD)模型,了解编码长距离依赖性的性能和计算成本。我们将全局上下文问题模拟为低级别恢复问题,并显示其优化算法可以帮助设计全局信息块。然后,本文提出了一系列汉堡包,其中我们采用了优化算法来解决MD,以将输入表示分解为子矩阵并重建低级别嵌入。具有不同MDS的汉堡包可以在小心地应对通过MDS的梯度时,对流行的全球背景模块自我关注进行。在愿景任务中进行综合实验,在那里学习全球范围至关重要,包括语义分割和图像生成,展示了对自我关注及其变体的显着改善。
translated by 谷歌翻译
在本文中,我们提出了一个可靠的控制器,该控制器在真正的盲人四足机器人上实现了自然且稳定的快速运动。只有本体感受信息,四足机器人的身体长度最大速度可以移动10倍,并且具有通过各种复杂地形的能力。通过无模型的强化学习,在模拟环境中训练控制器。在本文中,拟议的宽松邻里控制体系结构不仅保证了学习率,而且还获得了一个易于转移到真正四倍的机器人的动作网络。我们的研究发现,训练过程中存在数据对称性损失的问题,这导致学习控制器在左右对称的四倍体机器人结构上的性能不平衡,并提出了一个镜像世界神经网络来解决性能问题。由Mirror-World网络组成的学习控制器可以使机器人具有出色的反扰动能力。训练架构中没有使用特定的人类知识,例如脚部轨迹发生器。学识渊博的控制器可以协调机器人的步态频率和运动速度,并且与人工设计的控制器相比,运动模式更自然,更合理。我们的控制器具有出色的抗扰动性能,并且具有良好的概括能力,可以达到从未学到的运动速度,并且从未见过的地形。
translated by 谷歌翻译
我们提出了全球环境视觉变压器(GC VIT),这是一种新的结构,可增强参数和计算利用率。我们的方法利用了与本地自我注意的联合的全球自我发项模块,以有效但有效地建模长和短距离的空间相互作用,而无需昂贵的操作,例如计算注意力面罩或移动本地窗户。此外,我们通过建议在我们的体系结构中使用修改后的融合倒置残差块来解决VIT中缺乏归纳偏差的问题。我们提出的GC VIT在图像分类,对象检测和语义分割任务中实现了最新的结果。在用于分类的ImagEnet-1k数据集上,基本,小而微小的GC VIT,$ 28 $ M,$ 51 $ M和$ 90 $ M参数实现$ \ textbf {83.2 \%} $,$ \ textbf {83.9 \%} $和$ \ textbf {84.4 \%} $ top-1的精度,超过了相当大的先前艺术,例如基于CNN的Convnext和基于VIT的Swin Transformer,其优势大大。在对象检测,实例分割和使用MS Coco和ADE20K数据集的下游任务中,预训练的GC VIT主机在对象检测,实例分割和语义分割的任务中始终如一地超过事务,有时是通过大余量。可在https://github.com/nvlabs/gcvit上获得代码。
translated by 谷歌翻译
我们介绍了ADAVIT,一种可自适应地调整视觉变压器(VIT)推理成本的方法,用于不同复杂性的图像。 Adavit通过自动减少在网络中处理的视觉变压器中的令牌数量作为推理进行的令牌的数量来实现这一目标。我们为此任务进行重新格式化自适应计算时间(ACT),扩展为丢弃冗余空间令牌。视觉变换器的吸引力架构属性使我们的自适应令牌减少机制能够加速推理而不修改网络架构或推理硬件。我们展示了ADAVIT不需要额外的参数或子网来停止,因为我们基于自适应停止在原始网络参数上的学习。我们进一步引入了与现有行为方法相比稳定培训的分布先前正则化。在图像分类任务(ImageNet1K)上,我们表明我们提出的Adavit在过滤信息丰富的空间特征和削减整体计算上产生了高效率。所提出的方法将Deit-Tiny的吞吐量提高了62%并除去了38%,只有0.3%的精度下降,优于大边距。
translated by 谷歌翻译